未核化的维护有助于更长时间的车辆停机,并增加空军逻辑准备中队(LRSS)的成本。当车辆需要在预定时间之外修复时,根据其优先级,整个中队的Slated修复时间表是负面的。在维护应该运行的车辆所需的人小时的增加中,在长期的人数量增加时,特别看到了不定期的维护的影响:这可以包括在维护自身上花费的更多人,等待零件到达,花费时间重新组织维修时间表, 和更多。目前LRSS的主导趋势是,他们没有预测维护基础设施,以抵消他们目前经历的未安排维修的涌入,结果,它们的准备程度和性能水平低于所需。我们使用从防御财产和问责系统(DPA)中拉的数据,即LRSS目前用于存储其车辆维护信息。使用我们从DPA收到的历史车辆维护数据,我们独立应用三种不同的算法来构建准确的预测系统,以在任何给定时间优化维护计划。通过物流回归,随机森林和渐变促进树木算法的应用,我们发现一个逻辑回归算法,适合我们的数据,产生了最准确的结果。我们的调查结果表明,不仅继续使用Logistic回归对于我们的研究目的是谨慎的,但有机会进一步调整和优化我们的逻辑回归模型以获得更高的准确性。
translated by 谷歌翻译
随着各种科学领域中数据的越来越多,生成模型在科学方法的每个步骤中都具有巨大的潜力来加速科学发现。他们最有价值的应用也许在于传统上提出假设最慢,最具挑战性的步骤。现在,正在从大量数据中学到强大的表示形式,以产生新的假设,这对从材料设计到药物发现的科学发现应用产生了重大影响。 GT4SD(https://github.com/gt4sd/gt4sd-core)是一个可扩展的开放源库,使科学家,开发人员和研究人员能够培训和使用科学发现中假设生成的最先进的生成模型。 GT4SD支持跨材料科学和药物发现的各种生成模型的用途,包括基于与目标蛋白,OMIC剖面,脚手架距离,结合能等性质的分子发现和设计。
translated by 谷歌翻译
在部署后更新关键字发现(KWS)模型时,灾难性遗忘是一个棘手的挑战。如果KWS模型由于内存有限而进一步需要KWS模型,则此问题将更具挑战性。为了减轻此类问题,我们提出了一种新颖的多样性吸引的增量学习方法,名为Rainbow关键词(RK)。具体而言,拟议的RK方法引入了一种多样性意识的采样器,以通过计算分类不确定性来从历史和传入的关键字中选择多种设置。结果,RK方法可以逐步学习新任务,而无需忘记先验知识。此外,RK方法还提出了数据扩展和知识蒸馏损失功能,以在边缘设备上有效内存管理。实验结果表明,所提出的RK方法在与Google Speech命令数据集中最佳基线的平均准确性相比,绝对准确性获得了4.2%的绝对改善,所需的内存较少。这些脚本可在GitHub上找到。
translated by 谷歌翻译
在本文中,我们为表面缺陷检测任务呈现了一种完整的局部二进制模式(RCLBP)框架。我们的方法使用非本地(NL)表示滤波器的组合具有小波阈值和完成的本地二进制模式(CLBP)以提取燃料特征,该特征被馈入到用于表面缺陷检测的分类器中。本文结合了三个组分:建立基于非局部(NL)的去噪技术,该方法具有小波阈值的滤波器,以在保留纹理和边缘的同时代替噪声图像​​。其次,使用CLBP技术提取辨别特征。最后,鉴别特征被馈送到分类器中以构建检测模型并评估所提出的框架的性能。使用来自东北大学(NEU)的真实世界钢结构缺陷数据库来评估缺陷检测模型的性能。实验结果表明,所提出的方法RCLBP是噪声稳健,可在类内和阶级变化的不同条件下应用表面缺陷检测,并且具有照明变化。
translated by 谷歌翻译
我们展示了一个通过ImageNet(Optip)问题,旨在研究流媒体环境中深度学习的有效性。 Imagenet是一个广泛的已知基准数据集,有助于推动和评估深度学习的最新进步。通常,深度学习方法训练在模型具有随机访问的静态数据上,使用多次通过数据集,在每个时期的训练中随机随机抽搐。这种数据访问假设在许多真实情景中不存在,其中从流中收集大规模数据并存储和访问所有数据由于存储成本和隐私问题而变得不切实际。对于拍摄,我们将ImageNet数据视为顺序到达,内存预算有限的内存预算来存储一个小的数据子集。我们观察到,在单次训练中培训一个深度网络,用于多挪训练导致预测准确性的巨大降低。我们表明,尽管对典型的连续问题设置不同,但通过支付小的记忆成本和利用为持续学习的技术来说,可以显着降低性能差距。我们建议使用参考学习资源有效的深度学习。
translated by 谷歌翻译
卷积神经网络(CNNS)在许多计算机视觉任务中非常成功。然而,嵌入式和实时系统的推理成本很高,因此有很多关于压缩网络的研究。另一方面,自我关注模型的最新进步表明,卷积滤波器优选在较早层中的自我关注,这表明在较早的层中较强的电感偏差更好。如卷积滤波器所示,强大的偏置可以培训特定的滤波器并将不必要的过滤器构建为零。这类似于经典图像处理任务,其中选择合适的滤波器使得紧凑的字典表示特征。我们遵循这个想法,并将Gabor过滤器合并在较早的CNN层中进行压缩。通过BackProjagation学习Gabor滤波器的参数,因此该功能仅限于Gabor过滤器。我们表明,对于CIFAR-10的第一层VGG-16具有192个内核/功能,但学习Gabor过滤器需要平均29.4内核。此外,在改变的Reset-20上,使用Gabor滤波器,分别在第一和第二层中的平均83%和94%的内核,其中前五层与两层较大的核交换CiFar-10。
translated by 谷歌翻译
持续学习研究的主要重点领域是通过设计新算法对分布变化更强大的新算法来减轻神经网络中的“灾难性遗忘”问题。尽管持续学习文献的最新进展令人鼓舞,但我们对神经网络的特性有助于灾难性遗忘的理解仍然有限。为了解决这个问题,我们不关注持续的学习算法,而是在这项工作中专注于模型本身,并研究神经网络体系结构对灾难性遗忘的“宽度”的影响,并表明宽度在遗忘遗产方面具有出人意料的显着影响。为了解释这种效果,我们从各个角度研究网络的学习动力学,例如梯度正交性,稀疏性和懒惰的培训制度。我们提供了与不同架构和持续学习基准之间的经验结果一致的潜在解释。
translated by 谷歌翻译
A neural network deployed in the wild may be asked to make predictions for inputs that were drawn from a different distribution than that of the training data. A plethora of work has demonstrated that it is easy to find or synthesize inputs for which a neural network is highly confident yet wrong. Generative models are widely viewed to be robust to such mistaken confidence as modeling the density of the input features can be used to detect novel, out-of-distribution inputs. In this paper we challenge this assumption. We find that the density learned by flow-based models, VAEs, and PixelCNNs cannot distinguish images of common objects such as dogs, trucks, and horses (i.e. CIFAR-10) from those of house numbers (i.e. SVHN), assigning a higher likelihood to the latter when the model is trained on the former. Moreover, we find evidence of this phenomenon when pairing several popular image data sets: FashionMNIST vs MNIST, CelebA vs SVHN, ImageNet vs CIFAR-10 / CIFAR-100 / SVHN. To investigate this curious behavior, we focus analysis on flow-based generative models in particular since they are trained and evaluated via the exact marginal likelihood. We find such behavior persists even when we restrict the flows to constant-volume transformations. These transformations admit some theoretical analysis, and we show that the difference in likelihoods can be explained by the location and variances of the data and the model curvature. Our results caution against using the density estimates from deep generative models to identify inputs similar to the training distribution until their behavior for out-of-distribution inputs is better understood.
translated by 谷歌翻译